Announcing MongoDB Atlas free tier on GCP



Ранее в этом году, в ответ на сильный покупательский спрос, мы объявили, что мы расширяем поддержку региона для Atlas MongoDB. База данных MongoDB NoSQL пользуется огромной популярностью, а облачная версия MongoDB Atlas упрощает управление на Google Cloud Platform (GCP). Мы услышали отличные отзывы от пользователей, поэтому мы еще больше опустили барьер, чтобы начать работу с Atlas и GCP MongoDB.

Мы рады сообщить, что на сегодняшний день MongoDB будет предлагать бесплатный уровень аттестата MongoDB Atlas на GCP в трех поддерживаемых регионах, стратегически расположенных в Северной Америке, Европе и Азиатско-Тихоокеанском регионе в знак признания нашей широкой базы установки пользователей.

Свободный уровень позволит разработчикам бесплатную среду для песочницы для Atlas on MongoDB на GCP. Вы можете протестировать любые потенциальные рабочие нагрузки MongoDB на свободном уровне и решите перейти на более крупный платный Atlas-кластер, если у вас есть уверенность в наших облачных продуктах и ​​производительности.
На сегодняшний день эти конкретные регионы поддерживаются свободным уровнем Atlas:
  • Айова (us-central1)
  • Бельгия (europe-west1)
  • Сингапур (азия-юго-восток1)

Чтобы начать работу, вам просто нужно войти в консоль MongoDB, выбрать «Создать новый кластер», выбрать «Виртуальную платформу Google» и найти сообщение «Свободный уровень». Свободный уровень использует экземпляры M0 от MongoDB. Кластер M0 представляет собой среду Sando MongoDB для прототипирования и ранней разработки с объемом памяти 512 МБ. Он также оснащен мощными функциями предприятия, такими как постоянная аутентификация, сквозное шифрование и высокая доступность, а также мониторинг. Счастливые эксперименты!

Почему мы верим в открытое облако

Открытые облака больше, чем когда-либо. В то время как большинство компаний сегодня используют единый государственный облачный провайдер в дополнение к своей локальной среде, исследования показывают, что в ближайшие годы большинство компаний, скорее всего, примут несколько публичных и частных облаков. Фактически, согласно исследованию по правам человека 2018 года, 81% предприятий с 1000 или более сотрудниками имеют стратегию с несколькими облаками, и если вы считаете SaaS, то большинство организаций уже делают много облаков.

Открытые облака позволяют клиентам свободно выбирать, какая комбинация услуг и провайдеров наилучшим образом удовлетворит их потребности с течением времени. Открытые облака позволяют заказчикам эффективно управлять своей инфраструктурой в среде гибридных облаков.
Мы верим в три принципа для открытого облака:
  1. Open — это возможность забрать приложение и перенести его — туда и обратно, облако или другое облако — в любое время.
  2. Программное обеспечение с открытым исходным кодом позволяет обеспечить многообразие мысли и непрерывной обратной связи с пользователями.
  3. Открытые API сохраняют способность каждого строить работу друг друга.

1. Open — это возможность забрать приложение и переместить его
Открытое облако основано на убеждении, что привязка к определенному облаку не должна мешать достижению ваших целей. Открытое облако охватывает идею о том, что способность доставлять ваши приложения на разные облака при использовании общего подхода к разработке и операциям поможет вам в любой момент, независимо от того, какой ваш приоритет зависит от того, насколько эффективно вы используете свои навыки в разных командах или быстро ускоряя инновации. Открытый источник — это инструмент открытых облаков, потому что открытый источник в облаке сохраняет контроль над тем, где вы развертываете свои инвестиции в ИТ. Например, клиенты используют Kubernetes для управления контейнерами и TensorFlow для создания моделей машинного обучения на местах и ​​на нескольких облаках.

2. Программное обеспечение с открытым исходным кодом обеспечивает богатый уровень мысли и непрерывный цикл обратной связи с пользователями
Благодаря непрерывному циклу обратной связи с пользователями программное обеспечение с открытым исходным кодом (OSS) приводит к лучшему программному обеспечению, быстрее и требует значительного времени и инвестиций со стороны людей и компаний, ведущих проекты с открытым исходным кодом. Вот примеры приверженности Google OSS и требуемым различным уровням работы:
  • OSS, такой как Android, имеет открытую базу кода, и разработка является исключительной ответственностью одной организации.
  • OSS с изменениями, связанными с сообществом, такими как TensorFlow, предполагает координацию между многими компаниями и отдельными лицами.
  • OSS с общинной стратегией, например сотрудничество с Linux Foundation и сообществом Kubernetes, предполагает совместную работу, принятие решений и принятие консенсуса в отношении контроля.
Открытый источник настолько важен для Google, что мы называем его дважды в нашей корпоративной философии, и мы призываем сотрудников, а на самом деле всех разработчиков, взаимодействовать с открытым исходным кодом.

Используя BigQuery для анализа данных GHarchive.org, мы обнаружили, что в 2017 году более 5500 гуглеров представили код почти в 26 000 репозиториев, создали более 215 000 запросов на тягу и общались с бесчисленными сообществами почти через 450 000 комментариев. Сравнительный анализ вклада Google в открытый исходный код обеспечивает полезную относительную позицию ведущих компаний в открытом источнике на основе нормализованных данных.
Googlers активно участвуют в популярных проектах, о которых вы, возможно, слышали, включая Linux, LLVM, Samba и Git.

Регулярно открытые внутренние проекты Google
Лучшие проекты, инициированные Google, включают:
  • Кубернетес — контейнерная оркестровка (github)
  • TensorFlow — # 1 репозиторий для машинного обучения на github
  • BBR алгоритм управления перегрузкой — ваш Интернет только быстрее (github)
  • Open compute project rack — эффективный дата-центр для всех (pdf)
  • gRPC — высокопроизводительная инфраструктура RPC (github)
  • Bazel — система непрерывной интеграции (github)
  • VP9 — формат видеокодирования без роялти (проект)
  • Хром — самый популярный браузер (github)
  • Android — самая популярная операционная система для смартфонов (веб-сайт)
  • Golang — разработка простого, эффективного и надежного программного обеспечения в масштабе (github)
  • V8 — высокопроизводительный движок JavaScript (github)

3. Откройте API-интерфейсы, чтобы сохранить способность каждого строить работу друг друга
Открытые API-интерфейсы сохраняют способность каждого строить работу друг друга, улучшая программное обеспечение итеративно и совместно. Открытые API позволяют компаниям и отдельным разработчикам по желанию изменять поставщиков услуг. Рецензируемые исследования показывают, что открытые API-интерфейсы ускоряют инновации во всей отрасли и в любой конкретной экосистеме. Открытые API-интерфейсы зависят от права повторного использования установленных API-интерфейсов, создавая независимые, но совместимые реализации. Google стремится поддерживать открытые API через наше участие в Open API Initiative, участие в спецификации Open API, поддержку gRPC, благодаря совместимости с Cloud Bigtable с API-интерфейсом HBase, Cloud Spanner и BigQuery с SQL: 2011 (с расширениями) и совместимость с облачным хранилищем с общими API.
Создайте открытое облако с нами
Если вы верите в открытое облако, как мы, мы будем рады вашему участию. Вы можете помочь

Product updates | June 20, 2018



Региональные Стойкие Диски для Google Kubernetes Engine
В настоящее время в бета-версии, региональные Стойкие Диски репликации данных между двумя зонами, в одном регионе, что позволяет высокий уровень доступности для рабочих нагрузок с состоянием. В случае зонального отключения, переход на другой ресурс автоматически обрабатываются другой зоной.
cloudplatform.googleblog.com/2018/05/Get-higher-availability-with-Regional-Persistent-Disks-on-Google-Kubernetes-Engine.html

Самостоятельно управляемые ключи шифрования с БКА и Cloud КМС
Это бета запуск позволяет клиентам использовать службы управления ключами Cloud для защиты ресурсов Google Compute Engine, такие как диски, изображения и снимки.
cloud.google.com/compute/docs/disks/customer-managed-encryption?hl=en/

Поддержка TLS сертификатов на GKE Ingress
Это бета-версия добавляет поддержку TLS сертификатов на GKE Ingress.
cloud.google.com/kubernetes-engine/docs/how-to/ingress-multi-ssl

Новые региональные кластеры для Kubernetes Engine
Теперь пользователи могут получить 99,95% время бесперебойной работы и повысить доступность своих кластеров путем создания региональных кластеров. В отличии от других типов кластеров, региональные кластеры создают три кластера мастеров на три зон в регионе.
cloud.google.com/kubernetes-engine/docs/concepts/multi-zone-and-regional-clusters

Быстрее вращение сертификат Cloud SQL SSL
Теперь пользователи могут вращаться SSL сертификатов, используемых для подключения к их экземплярам Cloud SQL без простоев. Показать еще
cloud.google.com/sql/docs/postgres/configure-ssl-instance

GPUs as a service with Kubernetes Engine are now generally available



Сегодня мы рады объявить об общей доступности графических процессоров в Google Kubernetes Engine, которые стали одной из самых быстрорастущих функций платформы, так как они вступили в бета-версию в начале этого года, а основные часы выросли на 10X с конца 2017 года.

Совместно с GA Kubernetes Engine 1.10 графические процессоры делают Kubernetes Engine отличным для рабочих нагрузок для машинного обучения (ML). Используя GPU в Kubernetes Engine для ваших рабочих нагрузок CUDA, вы получаете максимальную вычислительную мощность графических процессоров, когда вам нужно, без необходимости управлять оборудованием или даже виртуальными машинами. Недавно мы представили новейший и самый быстрый NVIDIA Tesla V100 в портфолио, и P100, как правило, доступен. И последнее, но не менее важное: мы также предлагаем начальный уровень K80, который в значительной степени отвечает за популярность графических процессоров.

Все наши модели графических процессоров доступны в качестве превентивных графических процессоров, что позволяет снизить затраты при использовании графических процессоров в Google Cloud. Ознакомьтесь с последними ценами на графические процессоры здесь.
По мере роста основных часов GPU наши пользователи в восторге от GPU в Kubernetes Engine. Ocado, крупнейший в мире онлайн-магазин продуктов питания, всегда стремится применять современные модели машинного обучения для клиентов Ocado.com и партнеров по розничной торговле Ocado Smart Platform и запускает модели на превентивных экземплярах с ускорением GPU на Двигатель Кубернетеса.

Присоединенные к GPU узлы вместе с Kubernetes обеспечивают мощную, экономичную и гибкую среду для машинного обучения на уровне предприятия. Ocado выбрала Kubernetes за ее масштабируемость, мобильность, сильную экосистему и огромную поддержку сообщества. Он легче, гибче и удобнее в обслуживании по сравнению с кластером традиционных виртуальных машин. Он также имеет большую простоту в использовании и возможность прикреплять аппаратные ускорители, такие как графические процессоры и TPU, обеспечивая огромный прирост по сравнению с традиционными процессорами
— Мартин Николов, инженер-разработчик программного обеспечения, Ocado

Графические процессоры в Kubernetes Engine также имеют ряд уникальных возможностей:
  • Узел пулов позволяет вашему существующему кластеру использовать графические процессоры, когда вам нужно.
  • Autoscaler автоматически создает узлы с графическими процессорами, когда планируются графические процессоры, и масштабируются до нуля, когда графические процессоры больше не потребляются никакими активными модулями.
  • Технология Taint и toleration гарантирует, что на узлах с графическими процессорами будут запланированы только те модули, которые запрашивают графические процессоры, и предотвращают запуск блоков, которые не требуют использования графических процессоров.
  • Квота ресурсов, которая позволяет администраторам ограничить потребление ресурсов на пространство имен в большом кластере, совместно используемом несколькими пользователями или командами.
Мы также слышали от вас, что вам нужен простой способ понять, как работают ваши задачи GPU: насколько заняты графические процессоры, сколько памяти доступно и сколько памяти выделено. Мы очень рады сообщить, что теперь вы можете отслеживать эту информацию из консоли GCP. Вы также можете визуализировать эти показатели в Stackdriver.


Рис. 1. Использование памяти GPU и рабочий цикл
Общая доступность графических процессоров в Kubernetes Engine представляет собой тяжелую работу за кулисами, полировку внутренних компонентов для корпоративных нагрузок. Jiaying Zhang, технический лидер в этой общей доступности, возглавил усилия Device Plugins в Kubernetes 1.10, тесно сотрудничая с сообществом OSS, чтобы понять его потребности, определить общие требования и разработать план выполнения для создания готовой к производству системы.
Попробуйте их сегодня

Чтобы начать использовать графические процессоры в Kubernetes Engine с помощью бесплатной пробной версии в размере 300 долларов США, вам необходимо обновить свою учетную запись и подать заявку на получение квоты на использование графического процессора для вступления в силу кредитов. Для более подробного объяснения Kubernetes Engine с графическими процессорами, например, как установить драйверы NVIDIA и как настроить контейнер для использования графических процессоров, ознакомьтесь с документацией.
В дополнение к графическим процессорам в Kubernetes Engine облачные TPU также теперь доступны в Google Cloud. Например, RiseML использует Cloud TPU в Kubernetes Engine для простой в использовании инфраструктуры машинного обучения, которая проста в использовании, обладает высокой масштабируемостью и экономичностью. Если вы хотите быть одним из первых, кто получил доступ к Cloud TPU в Kubernetes Engine, присоединяйтесь к нашей программе раннего доступа сегодня.
Спасибо за ваши отзывы о том, как формировать нашу дорожную карту, чтобы лучше удовлетворить ваши потребности. Продолжайте разговор, соединившись с нами на канале Cubernetes Engine Slack.

Product updates



DNS-based service for discovery support for Internal Load Balancing
With this beta release, users can specify a service label when configuring a forwarding rule, automatically creating a fully qualified domain name in the Google Cloud Platform internal DNS.
cloud.google.com/compute/docs/load-balancing/internal/

GCE: Creating multiple disks at VM creation
To make VM creation more convenient, Google Compute Engine now lets users create multiple disks for VM instances in addition to the boot disk at the time of creation. You can easily create data or application disks for a VM in one go with this feature.
cloud.google.com/compute/docs/instances/create-start-instance

New App Engine scheduler
Designed to improve efficiency, control, and simplicity, a new instance scheduler offers a full rebuild of the Google App Engine standard autoscaling and scheduling features.
cloud.google.com/appengine/docs/standard/python/config/appref

VPC-native clusters using Alias IPs
This GA release of Alias IPs allows Google Kubernetes Engine clusters to be more scalable, and enables them to better interact with other GCP products and services.
cloud.google.com/kubernetes-engine/docs/how-to/alias-ips

CLOUD AI
TPUs now available for Cloud ML Engine
Now in beta on Cloud Machine Learning Engine, Tensor Processing Units are purpose-built for machine learning workloads with up to 180 teraflops of performance and 64 GB of ultra-high bandwidth memory for on-demand ML supercomputing.
cloud.google.com/ml-engine/docs/tensorflow/using-tpus

BIG DATA
BigQuery adds NUMERIC data type
Now in beta, this new feature adds the NUMERIC data type to Google BigQuery standard SQL. NUMERIC supports an exact numeric value with 38 digits of precision and nine decimal digits of scale, and is suitable for financial calculations.
cloud.google.com/bigquery/docs/reference/standard-sql/data-types

Self-service cost controls for BigQuery
Users can now self-manage cost controls for project-level quotas for BigQuery without having to submit support requests.
cloud.google.com/bigquery/docs/custom-quotas

NETWORKING
Introducing Network Service Tiers
Network Service Tiers, now in beta, make GCP the first major public cloud to offer a tiered cloud network. Choose a Premium or Standard tier to optimize your cloud network for performance or price.
cloud.google.com/network-tiers/

DEVELOPER TOOLS
Zync Render update
Zync Render now provides improved job start time and performance. It adds 96-core VM support, and the ability for admins to set limits on the number of machines that can be used on a per-user and a per-project basis.
www.zyncrender.com/

MANAGEMENT TOOLS
New programmatic budget notifications in Google Cloud Billing
Now GA, Google Cloud Billing programmatic budget notifications let users set rules to communicate, control, and cap costs.
cloudplatform.googleblog.com/2018/05/Better-cost-control-with-Google-Cloud-Billing-programmatic-notifications.html

New condition editor for Stackdriver Alerting UI
Now in beta, users can opt in to Stackdriver’s new condition editor in the Alerting UI for an intuitive, visual way to create, edit, and manage alerting policies.
cloud.google.com/monitoring/alerts/using-alerting-ui

Opening a third zone in Singapore

Когда в прошлом году мы открыли региональную платформу Google Cloud Platform (GCP) в Сингапуре, она была запущена с двумя зонами. Сегодня мы рады объявить третью зону (asia-southeast1-c) и несколько новых услуг. Это расширение облегчит клиентам, особенно в Юго-Восточной Азии, создание высокодоступных услуг, которые отвечают потребностям их бизнеса.


Это 46-я зона GCP в глобальном масштабе, и теперь все 15 регионов GCP имеют три или более зоны. Мы строим каждый регион с целью предоставления как минимум трех зон, потому что мы понимаем важность высокой доступности. Клиенты могут распространять свои приложения и хранилища в нескольких зонах для защиты от сбоев в работе служб.
Новые услуги
На старте в Сингапурском регионе был основной набор услуг, и мы продолжаем добавлять такие сервисы, как Cloud KMS и Cloud Bigtable. Теперь мы добавили три новых сервиса в регион: Cloud Spanner, Cloud SQL и Managed Instance Groups.




GCP is building a region in Zürich



Switzerland is a country famous for pharmaceuticals, manufacturing and banking, and its central location in Europe makes it an attractive location for cloud. Today, we’re announcing a Google Cloud Platform (GCP) region in Zürich to make it easier for businesses to build highly available, performant applications. I am originally from Switzerland, so this cloud infrastructure investment is personally exciting for me.

Zürich will be our sixth region in Europe, joining our future region in Finland, and existing regions in the Netherlands, Belgium, Germany, and the United Kingdom. Overall, the Swiss region brings the total number of existing and announced GCP regions around the world to 20—with more to come!

The Swiss region will open in the first half of 2019. Customers in Switzerland will benefit from lower latency for their cloud-based workloads and data, and the region is also designed for high availability, launching with three zones to protect against service disruptions.

Расширение нашего портфолио GPU с помощью NVIDIA Tesla V100

Облачные аппаратные ускорители, такие как графические процессоры или графические процессоры, являются отличным выбором для вычислительных нагрузок, таких как машинное обучение и высокопроизводительные вычисления (HPC). Мы стремимся предоставить самый широкий выбор популярных ускорителей на Google Cloud, чтобы удовлетворить ваши потребности в гибкости и стоимости. С этой целью, мы рады сообщить, что графические процессоры NVIDIA Tesla и твердотельного накопителя v100, если сейчас публично доступна в бета-версии на Вычислительные машины и двигателя Kubernetes, и что NVIDIA Тесла Р100 графических процессоров стала общедоступна.

Сегодняшние самые требовательные рабочие нагрузки и индустрии требуют самых быстрых акселераторов оборудования. Теперь вы можете выбрать до восьми графических процессоров NVIDIA Tesla V100, 96 vCPU и 624 ГБ системной памяти в одной виртуальной машине, получая до 1 петафлопа смешанной точности аппаратного ускорения. Следующее поколени соединений NVLINK поставляет до 300GB/s ширины полосы частот GPU-к-GPU, 9X над PCIe, форсируя представление на глубоком учить и рабочих нагрузках HPC до 40%. NVIDIA V100s доступны для следующих регионов: us-west1, us-central1 и Европа-west4. Каждый V100 GPU по цене всего $2.48 в час по требованию ВМ и $1,24 на час для операционных систем виртуальных машин. Как и наши другие графические процессоры, V100 также оплачивается вторым и действуют постоянные скидки.

Наши клиенты часто спрашивают, какой Графический процессор лучше всего подходит для их вычислительной нагрузки с поддержкой CUDA. Если вы ищете баланс между ценой и производительностью, Графический процессор NVIDIA Tesla P100 хорошо подходит. Можно выбрать до четырех графических процессоров P100, 96 vcpu и 624 ГБ памяти на виртуальную машину. Кроме того, Р100, теперь доступна и в Европе-западе4 (Нидерланды) в дополнение к нам-запад1, нам-central1, нам-восток1, Европа-запад1 и Азии-восток1.

Наше портфолио GPU предлагает широкий выбор вариантов производительности и цен, чтобы помочь удовлетворить ваши потребности. Вместо того чтобы выбирать универсальную виртуальную машину одного размера, вы можете подключить наши графические процессоры к пользовательским формам виртуальных машин и воспользоваться широким выбором вариантов хранения, оплачивая только необходимые ресурсы.



Google Cloud упрощает управление рабочими нагрузками GPU как для виртуальных машин, так и для контейнеров. В Google Compute Engine клиенты могут использовать шаблоны экземпляров и управляемые группы экземпляров для простого создания и масштабирования инфраструктуры GPU. Вы также можете использовать NVIDIA V100s и другие наши предложения GPU в Kubernetes Engine, где Кластерный Автоскалер помогает обеспечить гибкость, автоматически создавая узлы с графическими процессорами и масштабируя их до нуля, когда они больше не используются. Вместе с Вытесняемыми графическими процессорами группы управляемых экземпляров Compute Engine и Автосалон Kubernetes Engine позволяют оптимизировать затраты и упростить операции инфраструктуры.
LeadStage, поставщик автоматизации маркетинга, впечатлен стоимостью и масштабом графических процессоров в Google Cloud.

«Графические процессоры NVIDIA отлично подходят для сложных задач оптического распознавания символов на наборах данных низкого качества. Мы используем графические процессоры V100 и P100 в Google Compute Engine для преобразования миллионов рукописных документов, чертежей съемки и инженерных чертежей в машиночитаемые данные. Возможность развертывания тысяч экземпляров GPU в считанные секунды значительно превосходила возможности и стоимость предыдущего поставщика облачных вычислений.»
Адам Сибрук, Главный Исполнительный Директор, LeadStage

Если у вас есть вычислительно требовательные рабочие нагрузки, графические процессоры могут стать настоящим игровым чейнджером. Проверьте нашу страницу GPU, чтобы узнать больше о том, как вы можете извлечь выгоду из P100, V100 и других Google Cloud GPU!

cloud.google.com/free-trial

cloudplatform.googleblog.com/2018/04/Expanding-our-GPU-portfolio-with-NVIDIA-Tesla-V100.html

Product updates



QUIC with HTTPS load balancing
With this beta release, HTTPS load balancing now supports the QUIC transport in connections to clients, improving performance by providing enhanced congestion control and security.
cloud.google.com/compute/docs/load-balancing/http/

User-defined request headers
In this beta release, customers can now specify additional headers that the Google Cloud Load Balancer can add to requests, helping improve the client experience and simplifying backend implementation.
cloud.google.com/compute/docs/load-balancing/http/backend-service

Creating a GCE VM instance with an existing instance template
With this GA release, Google Compute Engine customers can now create a VM instance based on an existing instance template with the ability to override certain instance-template fields.
cloud.google.com/compute/docs/instances/create-vm-from-instance-template

CLOUD AI
Cloud ML Engine – XGBoost and scikit-learn support
With this beta release, customers can now serve trained scikit-learn and XGBoost models on Cloud Machine Learning Engine, using its online prediction service to support scalable prediction requests against their trained models.
cloud.google.com/ml-engine/docs/scikit/

MANAGEMENT TOOLS
Structured data from Stackdriver Logging agent
Customers can now use the Stackdriver Logging agent to convert their logs to a structured JSON format for many common log types with this GA release.
cloud.google.com/logging/docs/structured-logging

NETWORKING
VPC Flow Logs for cloud network monitor
Now in beta, VPC Flow Logs for cloud network monitor increases transparency into your network and allows you to track network flows all the way down to an individual virtual interface in near real time.
cloud.google.com/vpc/docs/using-flow-logs

API PLATFORM & ECOSYSTEMS
Apigee compliance with GDPR requirements
Apigee Edge has been updated to comply with the EU General Data Protection Regulation, allowing customers to disable Apigee Support from being able to trace their proxy traffic, among other changes.
docs.apigee.com/api-platform/faq/privacy-security-settings